Един технически съвет: Как да забележите генерирани от AI deepfake изображения
ЛОНДОН (AP) — AI подправянето бързо се трансформира в един от най-големите проблеми, пред които сме изправени онлайн. Измамните фотоси, видеоклипове и аудио се популяризират вследствие на възхода и злоупотребата с принадлежности за генеративен изкуствен интелект.
С дълбоките имитации с изкуствен интелект, които се появяват съвсем всеки ден, изобразявайки всички от Тейлър Суифт до Доналд Тръмп, става все по-трудно да се разграничи кое е същинско от това, което не е. Генераторите на видео и изображения като DALL-E, Midjourney и Sora на OpenAI улесняват хората без никакви механически умения да основават deepfakes – просто въведете поръчка и системата я изплюва.
Тези подправени изображения може да наподобяват безобидни. Но те могат да бъдат употребявани за осъществяване на измами и кражба на идентичност или агитация и изборна операция.
Ето по какъв начин да избегнете машинация от deepfakes:
КАК ДА РАЗПОЗНАЕТЕ DEEPFAKE
В първите дни на deepfakes технологията надалеч не беше съвършена и постоянно оставя издайнически признаци на операция. Проверяващите обстоятелства са показали изображения с явни неточности, като ръце с шест пръста или очила с друго завършени стъкла.
Но защото AI се усъвършенства, стана доста по-трудно. Някои необятно споделяни препоръки – като търсенето на неестествени модели на намигване измежду хората в deepfake видеоклипове – към този момент не важат, сподели Хенри Айдер, създател на консултантската компания Latent Space Advisory и водещ специалист в генеративния AI.
Все отново има някои неща, които би трябвало да се търсят, сподели той.
Много AI deepfake фотоси, изключително на хора, имат електронен искра, „ изящен тип изглаждащ резултат “, който оставя кожата „ да наподобява необикновено полирана “, сподели Айдер.
Той обаче предизвести, че креативното подсещане от време на време може да отстрани този и доста други признаци на операция с ИИ.
Проверете последователността на сенките и осветлението. Често обектът е на явен фокус и наподобява безапелационно реален, само че детайлите на фона може да не са толкоз реалистични или полирани.
ВИЖТЕ ЛИЦАТА
Смяната на лица е един от най-разпространените способи за надълбоко подправяне. Експертите поучават да се вгледате деликатно в краищата на лицето. Съвпада ли тонът на кожата на лицето с останалата част от главата или тялото? Краищата на лицето остри ли са или замъглени?
Ако подозирате, че видеоклипът на говорещ човек е бил фалшифициран, погледнете устата му. Движенията на устните им съответстват ли съвършено с аудиото?
Айдер предлага да погледнете зъбите. Ясни ли са или са замъглени и по някакъв метод не дават отговор на метода, по който наподобяват в действителния живот?
Компанията за киберсигурност Norton споделя, че логаритмите към момента може да не са задоволително комплицирани, с цел да генерират обособени зъби, тъй че неналичието на контури на обособените зъби може да е улика.
МИСЛЕТЕ ЗА ПО-ГОЛЯМАТА КАРТИНА
h2>
Понякога подтекстът има значение. Замислете се дали това, което виждате, е правдоподобно.
Уебсайтът за публицистика на Poynter поучава, че в случай че видите обществена персона да прави нещо, което наподобява „ пресилено, нереалистично или не по темперамент “, това може да е бездънен фалш.
Например, ще папата в действителност да носи първокласно пухено яке, както е изобразено на известна подправена фотография? Ако го направи, няма ли да има спомагателни фотоси или видеоклипове, оповестени от законни източници?
ИЗПОЛЗВАНЕ НА AI ЗА ОТКРИВАНЕ НА ФАЛШИТИИТЕ
Друг метод е потреблението на AI за битка с AI.
Microsoft създаде инструмент за засвидетелствуване, който може да проучва фотоси или видеоклипове, с цел да даде оценка на достоверността дали са били манипулирани. FakeCatcher на производителя на чипове Intel употребява логаритми за анализиране на пикселите на изображението, с цел да дефинира дали е същинско или подправено.
Има онлайн принадлежности, които дават обещание да надушат имитации, в случай че качите файл или поставите връзка към подозрителния материал. Но някои, като автентификатора на Microsoft, са налични единствено за определени сътрудници, а не за обществеността. Това е по този начин, тъй като откривателите не желаят да подсказват неприятните артисти и да им дадат по-голямо преимущество в надълбоко подправената конкуренция във въоръжаването.
Отвореният достъп до принадлежности за разкриване може също по този начин да сътвори у хората усещането, че са „ богоподобни технологии, които могат да изнесат сериозното мислене вместо нас “, когато вместо това би трябвало да сме наясно с техните ограничавания, сподели Айдер.
ПРЕПЪЧНИЦИТЕ ПРЕД ОТКРИВАНЕТО НА ФАЛШИТИ
Като се има поради всичко това, изкуственият разсъдък напредва с стремглава скорост и AI моделите се образоват на интернет данни, с цел да създават все по-висококачествено наличие с по-малко дефекти.
Това значи, че няма гаранция, че този съвет ще продължи да е годен даже след година.
Експертите споделят, че даже може да е рисково да се натовари елементарните хора да станат цифрови Шерлоци, тъй като това може да им даде подправено възприятие на убеденост, защото става все по-трудно, даже за опитни очи, да виждат дълбоки имитации.
___
Суенсън заяви от Ню Йорк.
___
Асошиейтед прес получава поддръжка от няколко частни фондации, с цел да усъвършенства своето обяснително отразяване на изборите и демокрацията. Вижте повече за самодейността за народна власт на AP тук. AP е само виновен за цялото наличие.